Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6490 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Издания и лицензирование VMware vSphere 5.1 - обзор изменений.


Мы уже писали о новых возможностях VMware vSphere 5.1 - серверной платформы виртуализации, которая была анонсирована и выпущена на конференции VMowrld 2012. Вместе с выпуском обновленной версии продукта компания VMware внесла достаточно много изменений в издания и политики лицензирования продукта, так как почувствовала сильное давление со стороны основного конкурента - платформы Hyper-V в новой версии ОС Windows Server 2012 со множеством новых возможностей, по совокупности которых инфраструктура Microsoft почти не уступает VMware vSphere.

Итак, основные изменения в изданиях и лицензировании VMware vSphere 5.1:

  • Полная отмена лимитов по vRAM и числу ядер для лицензии на процессор. Напомним, что ранее (в vSphere 5.0) при превышении суммарного значения сконфигурированной оперативной памяти виртуальных машин (vRAM) для лицензии на процессор определенного издания, пользователи были вынуждены докупать еще лицензий, чтобы соответствовать условиям VMware. Эта политика и раньше вызывала очень много вопросов, так как демотивировала пользователей наращивать коэффициент консолидации виртуальных машин на хостах VMware ESXi (превышаешь порог по памяти для лицензии->платишь больше), что противоречит самой идее виртуализации. Теперь этих ограничений нет, единица лицензирования - физический процессор сервера, при этом не важно сколько в нем ядер и памяти у самого сервера. Мы писали об этом тут.
  • Во всех изданиях vSphere 5.1, начиная с Essentials Plus, появился виртуальный модуль vSphere Storage Appliance 5.1. Об этом продукте мы уже писали вот тут. Нужен он для создания общего хранилища под виртуальные машины, которое можно создать на базе локальных дисков серверов. Этот продукт обновился и теперь доступен для построения распределенной архитектуры кластеров хранилищ, управляемых через один vCenter.
  • Издание VMware vSphere 5.1 Standard приобрело множество возможностей. К ним относятся: механизм резервного копирования vSphere Data Protection (подробнее здесь), "горячее" добавление устройств виртуальной машины Hot Add, фреймворк антивирусной защиты vShield Endpoint, возможность репликации виртуальных машин vSphere Replication, кластеры непрерывной доступности vSphere Fault Tolerance и, главное, механизм "горячей" миграции хранилищ виртуальных машин vSphere Storage vMotion.
  • Издание VMware vSphere 5.1 Essentials Plus приобрело множество возможностей. К ним относятся: механизм резервного копирования vSphere Data Protection (подробнее здесь), фреймворк антивирусной защиты vShield Endpoint и возможность репликации виртуальных машин vSphere Replication.
  • Важный момент: пользователи vSphere 5.0 теперь не имеют ограничений по vRAM. То есть, изменения в лицензированию имеют обратную силу.
  • Издание VMware vSphere 5.1 Enterpise Plus позволяет иметь до 64 vCPU виртуальных машин.
  • Доступна новая ветка издания VMware vSphere 5.1 Standard with Operations Management. Это издание включает в себя продукт vCenter Operations Management Suite Advanced, а также средство обновления гостевых ОС vCenter Protect Standard.

Как и всегда, пользователи VMware vSphere 5.0 с действующей подпиской и поддержкой (SnS) обновляются на VMware vSphere 5.1 бесплатно.

Все издания продукта VMware vCenter (Essentials, Foudation и Standard) включают в себя следующие возможности:

  • Management service – централизованная консоль управления.
  • Database server – сервер БД.
  • Inventory service – сервис поиска по виртуальной инфраструктуре, в том числе с несколькими vCenter, а также средства кэширования запросов клиентов, что повышает производительность.
  • VMware vSphere Clients - "толстая" и "тонкая" консоли администрирования (Web Client теперь основной), позволяющие управлять несколькими vCenter одновременно.
  • VMware vCenter APIs and .NET Extension – интеграция vCenter со сторонними плагинами.
  • vCenter Single Sign-On – возможность единовременного логина на сервер без необходимости вводить учетные данные в различных сервисах управления виртуальной инфраструктурой.

Издание Standard, помимо возможности управления неограниченным количеством хост-серверов, предоставляет следующие возможности:

  • vCenter Orchestrator – средство автоматизации рабочих процессов в виртуальной инфраструктуре.
  • vCenter Server Linked Mode – общее окружение для нескольких серверов vCenter Server.

Традиционная таблица сравнения функциональности изданий VMware vSphere 5.1, приобретаемых поштучно на процессор:

Сравнение возможностей
vSphere 5.1 Standard vSphere 5.1 Enterprise vSphere 5.1 Enterprise Plus
Компоненты продукта


Единица лицензирования
На 1 CPU На 1 CPU На 1 CPU
Объем vRAM

Не ограничено Не ограничено Не ограничено
Максимальное количество vCPU виртуальной машины
8 32 64
SUSE Linux Enterprise Server for VMware
Средство управления vCenter Server
vCenter Server Foundation 
vCenter Server Standard
vCenter Server Foundation 
vCenter Server Standard
vCenter Server Foundation 
vCenter Server Standard
Возможности продукта


vSphere Hypervisor (платформа ESXi)
Thin Provisioning
Update Manager
Data Protection
High Availability
vMotion
vStorage APIs for Data Protection
Hot Add
vShield Zones
vShield Endpoint
Replication
Fault Tolerance
Storage vMotion
Virtual Serial Port Concentrator
Storage APIs for Array Integration
Storage APIs for Multipathing
Distributed Resources Scheduler (DRS), Distributed Power Management (DPM)
Storage I/O Control и Network I/O Control

Distributed Switch

Host Profiles и Auto Deploy    
Storage DRS и Profile-Driven Storage    

Традиционная таблица комплектов лицензий VMware vSphere 5.1 Essentials, VMware vSphere 5.1 Essentials Plus, VMware vSphere 5.1 Acceleration Kits:

Сравнение возможностей Essentials Kit Essentials Plus Kit Standard 
Acceleration Kit
Standard with Operations Management Kit Enterprise 
Acceleration Kit
Enterprise Plus 
Acceleration Kit
Компоненты продукта
Средство управления vCenter Server
vCenter Server Essentials vCenter Server 
Essentials
vCenter Server Standard vCenter Server Standard vCenter Server Standard vCenter Server Standard
Возможности общего хранилища на локальных дисках (Shared Storage) vSphere Storage Appliance for Essentials Plus vSphere Storage Appliance vSphere Storage Appliance vSphere Storage Appliance vSphere Storage Appliance
Включенные лицензии в пакет 3 сервера, в каждом максимум 2 процессора 3 сервера, в каждом максимум 2 процессора 6 процессоров с возможностью докупки лицензий по процессорам 6 процессоров с возможностью докупки лицензий по процессорам 6 процессоров с возможностью докупки лицензий по процессорам 6 процессоров с возможностью докупки лицензий по процессорам
Объем vRAM на процессор

Не ограничено Не ограничено Не ограничено Не ограничено Не ограничено Не ограничено
Максимальное количество vCPU виртуальной машины
8 8 8 8 32 64
SUSE Linux Enterprise Server for VMware
Возможности продукта
vSphere Hypervisor (платформа ESXi)
Thin Provisioning
Update Manager
vStorage APIs for Data Protection
Data Protection
High Availability
vMotion
vShield Zones
vShield Endpoint  
Replication  
Storage vMotion
Fault Tolerance
Hot Add
Virtual Serial Port Concentrator  
Storage APIs for Array Integration  
Storage APIs for Multipathing  
Distributed Resources Scheduler (DRS), Distributed Power Management (DPM)
Storage I/O Control и Network I/O Control  
Distributed Switch  
Host Profiles и Auto Deploy          
Storage DRS и Profile-Driven Storage          
VMware vCenter Operations Management Suite Advanced          
VMware vCenter Protect Standard          

Полный обзор политик лицензирования и условий поставки VMware vSphere 5.1 приведен в документе " vSphere 5.1 Licensing, Pricing and Packaging".


Таги: VMware, vSphere, Licensing, Update, vCenter, ESXi

Полный список новых возможностей VMware vSphere 5.1.


На конференции VMworld 2012 компания VMware анонсировала выпуск новой версии серверной платформы виртуализации VMware vSphere 5.1. В обновленной версии продукта появилось множество интересных возможностей, отражающих движение компании VMware в направлении развития облачных вычислений. В этой статье мы приведем полный список новой функциональности VMware vSphere 5.1, которая доступна пользователям уже сегодня...


Таги: VMware, vSphere, Update, ESXi, vCenter, VMachines

1 миллион IOPS для виртуальной машины на VMware vSphere 5.1.


На проходящем сейчас в Сан-Франциско VMworld 2012 компания VMware продемонстрировала новые горизонты производительности серверной платформы виртуализации, выжав 1 миллион операций ввода-вывода в секунду (IOPS) для одной виртуальной машины на VMware vSphere 5.1.

Для тестов использовалась следующая конфигурация:

Hypervisor: vSphere 5.1
Server: HP DL380 Gen8
CPU: 2 x Intel Xeon E5-2690, HyperThreading disabled
Memory: 256GB
HBAs: 5 x QLA2532
Storage: 2 x Violin Memory 6616 Flash Memory Arrays
VM: Windows Server 2008 R2, 8 vCPUs and 48GB.
Iometer Config: 4K IO size w/ 16 workers

Напомним, что на прошлом VMworld 2011 также была показана производительность в 1 миллион IOPS (300 000 для одной машины), но для хост-сервера VMware ESXi (суммарно от нескольких виртуальных машин).

Также из любопытных фактов, озвученных на VMworld 2012:

  • 60% серверов уже являются виртуальными, VMware стремится к показателю 90% и более.
  • Число сертифицированных специалистов VMware VCP достигло 125 тысяч.
  • В VMworld 2012 приняли участие 20 000 специалистов.
  • Основная концепция на ближайшее будущее - "Software-defined data center" (по аналогии с приобретенной недавно концепцией компании Nicira - Software-defined networking). Предполагается, что ключевые позиции в этой концепции займут продукты VMware vSphere, vCloud Director, vCloud Connector, Site Recovery Manager, vCenter Operations и vFabric Application Director.

Больше об облачных инициативах VMware - в самое ближайшее время.


Таги: VMware, vSphere, Update, Performance, Storage, VMachines

Вышли VMware Workstation 9 и VMware Fusion 5 - новые возможности настольных платформ виртуализации.


Не так давно мы писали про мартовские, июньские и июльские превью-версии VMware Workstation и VMware Fusion 2012 года. Вчера компания VMware, проведя обширное бета-тестирование, выпустила окончательные версии продуктов VMware Workstation 9 и VMware Fusion 5, получившие много новых интересных возможностей.

Полный список новых возможностей VMware Workstation 9:

  • Поддержка гостевых и хостовых ОС Windows 8 и Windows Server 2012. Упрощенная установка, распознающая Windows 8. В гостевой ОС поддерживается новый интерфейс Metro. Переключение между Metro и хостовым десктопом может быть произведено нажатием кнопки Windows, при этом интерфейс Unity интеллектуально обрабатывает Metro. В Workstation 9 также присутствует поддержка мультитача для гостевой ОС Windows 8 с Metro, работающей в Workstation, которая запущена на планшете с Windows 8.
  • Улучшения графического движка. В Workstation 9 было сделано много улучшений в структуре движка, включая графический драйвер для рендера графики в Windows 8 без аппаратного ускорения, улучшения графического отображения "тяжелых" приложений (AutoCAD и SolidWorks), а также существенная доработка графического драйвера для Windows XP.
  • Поддержка движка OpenGL для гостевых ОС Linux. VMware разработала собственный драйвер для OpenGL графики и добавила его на X.org. Это позволит использовать новые графические возможности в текущих и новых дистрибутивах Linux (например, Ubuntu 12.04) без необходимости установки VMware Tools.
  • Restricted Virtual Machines - возможность задать дополнительный пароль для зашифрованных ВМ, чтобы предотвратить изменение их конфигурации со стороны неавторизованных пользователей (например, ВМ для студентов). Такие машины могут работать в VMware Workstation 9, VMware Player 5 и VMware Fusion 5 на платформах Windows, Linux или Mac.
  • WSX Server - это технология, которая работает на базе стандарта HTML 5 (с поддержкой WebSockets), что подразумевает отсутствие необходимости иметь какие-либо дополнительные компоненты, кроме веб-браузера, чтобы получить доступ к консоли виртуальной машины и ее средствами управления. В качестве веб-браузеров, той или иной степени совместимых с HTML 5, можно использовать Chrome 17, Firefox 10, IE 10, Safari 5 на ПК с Mac OS и iOS 5 для iPad. На данный момент эта функция не поддерживается в производственной среде. Для PC рекомендуется использовать браузер Google Chrome 17, а для Mac и iPad - Apple Safari 5 (на данный момент есть проблемы с Internet Explorer 10). WSX также работает и с другими браузерами на планшетах Android под управлением Ice Cream Sandwich, однако пока не все из них протестированы.
  • Возможность загрузки виртуальных машин на хосты VMware vSphere и обратно с них на Workstation - это также возможно сделать, перетаскивая их с удаленного хоста в секцию My Computer библиотеки Virtual Machine Library.
  • Поддержка USB 3.0 - Workstation 9 поддерживает проброс USB 3.0 устройств в гостевую ОС Windows 8. Делается это средствами новых драйверов USB 3.0 для накопителей или видеоустройств.
  • Улучшения Nested Virtualization - были улучшены расширения аппаратной виртуализации Intel VT-x/EPT и AMD-V/RVI, что позволяет запускать ESX/ESXi в гостевой ОС, а в них 64-битные машины с меньшими потерями производительности. Если вы включали эти расширения в Workstation 8, то перед обновлением до девятой версии их надо выключить, а после обновления снова включить.
  • Hyper-V можно запускать в гостевой ОС - можно использовать Windows 8 с функциями Hyper-V, а также Hyper-V Server 2012 или Windows Server 2012 с ролью Hyper-V. Эти возможности не поддерживаются в производственной среде (и никогда не будут).
  • Virtual Performance Counters - счетчики производительности виртуальных машин для профилирования приложений из гостевой ОС (например, с помощью Intel vTune).
  • Remoting Improvements - существенные улучшения производительности при соединении с консолью ВМ на VMware vSphere или к машинам Workstation с помощью VNC-клиента.
  • Disk Cleanup - новая возможность почистить место в папке с файлами виртуальной машины.
  • Quick Switch II - раньше в Workstation был режим быстрого переключения между виртуальными машинами вверху окна, в Workstation 8 этот функционал был убран. Теперь он вернулся с большим удобством и группировкой по хостам в хостовых ОС Windows.
  • Thumbnail Actions - теперь на таскбаре для виртуальных машин есть кнопки для управления питанием ВМ.
  • Saved Filters - в Workstation 9 автоматически сохраняются поиски по virtual machine library как фильтры для быстрого их применения при следующем запуске.
  • VMware Player - пользовательский интерфейс этого продукта был полностью переработан. Теперь он также доступен и для коммерческого использования - лицензия на VMware Player 5 включена в издание VMware Fusion 5 Professional.
  • Поддержка шифрованного SSL-соединения для WSX. Теперь можно назвать сертификаты именами wsx.crt и wsx.key и положить их в папки etc/vmware/wsx/ssl/directory (Linux) или Application Data\VMware\VMware WSX\SSL (Windows). Этого не сделано по умолчанию, так как SSL глючит с WebSockets.
  • Улучшена стабильность продукта, включая операции suspend/resume и display, а также улучшена поддержка устройств хоста.
  • Поддержка голосового движка через WSX на Mac OS и iOS при работе с консолью ВМ Windows.

Release Notes и документация к продукту VMware Workstation 9 доступна по этой ссылке. Скачать пробную версию можно тут. Для пользователей VMware Workstation 8 обновление на девятую версию - бесплатно.

Полный список новых возможностей VMware Fusion 5:

  • Упрощенная установка - нужно просто запустить VMware Fusion.app или перетащить его в место установки, для удаления продукта можно перетащить иконку в корзину.
  • Поддержка Windows 8 в виртуальных машинах - Fusion 5 полностью поддерживает интерфейс Metro в гостевой ОС Windows 8, имеет отдельный профиль клавиатуры, а также возможность импорта физических ПК в ВМ. Поддерживается также установка Windows 8 в режиме "Boot Camp".
  • Поддержка VMware ESXi 5, Ubuntu 12.04, Fedora 17 и Windows Server 2012 в гостевых ОС.
  • Полная поддержка хостов и дизайн для OS X Mountain Lion - VMware Fusion использует Mountain Lion notification center для отображения важных сообщений. Кроме этого можно искать Windows-программы в Launchpad, а также использовать "AirPlay Mirroring" для стриминга приложений Windows на HDTV.
  • Улучшенная стабильность - при работе с приложениями для Windows 7 и Windows 8.
  • Оптимизация для последних устройств Mac - поддержка десплеев Retina, интерфейса USB 3.0 для Windows и Linux, SSD-оптимизации, а также экономия батареи.
  • Множественные изменения интерфейса:
    • Новая библиотека виртуальных машин (virtual machine library) и куча возможностей в ней.
    • Новый механизм работы с окнами VMware Fusion (настройки, снапшоты и т.п.).
    • Запуск приложений Windows 7 и Windows 8 в режиме Unity.
    • Прямой доступ к VMware Fusion Learning Center.
  • Поддержка ВМ с гостевой ОС Linux и 3D desktops - включая Ubuntu 12.04 и последние релизы OpenSUSE и поддержка OpenGL.
  • Restricted virtual machines - поддержка запуска и создания защищенных ВМ (см. раздел Workstation 9).
  • Virtual Performance Counter - счетчики производительности виртуальных машин для профилирования приложений из гостевой ОС (например, с помощью Intel vTune).
  • Custom network configuration - возможность создания специализированных сетей для лаборатории, демонстраций и тестирования.
  • Улушчение производительности и надежности операций suspend, resume, pause, restart.
  • Импорт виртуальных машин в OVF-формате.
  • Изменение загрузочных устройств виртуальных машин Mac OS X.
  • Улучшения при работе с устройствами ВМ.
  • Улучшения виртуализации инструкций VT-x/EPT.
  • Новый VIX API для автоматизации через perl или другие скриптовые языки.
  • Поддержка сетевой загрузки виртуальных машин на основе EFI.
  • Метапакеты (mpkg) для развертывания VMware Fusion на большом количестве компьютеров Mac.

Release Notes и документация к продукту VMware Fusion 5 доступна по этой ссылке. Скачать пробную версию можно тут.


Таги: VMware, Workstation, Fusion, Update, WSX, VMachines, Mac, Windows, Metro

Репликация дедуплицированных хранилищ в StarWind iSCSI SAN через LAN/WAN-сети.


Мы уже писали о том, что в решении номер 1 StarWind iSCSI SAN для создания отказоустойчивых хранилищ VMware vSphere, есть возможность создания дедуплицированных виртуальных дисковых устройстввот тут), на которых могут быть размещены виртуальные машины.

Те из вас, кто следит за обновлениями StarWind, знают, что в последних версиях продукта появилась возможность репликации дедуплицированных устройств на другой узел кластера StarWind. Причем можно использовать репликацию дисковых устройств как в локальной сети, так и через WAN-сети в целях создания DR-площадки виртуальной инфраструктуры (пока экспериментально).

27-го августа выйдет StarWind iSCSI SAN 6.0, возможно, там последняя конфигурация уже будет поддерживаться полноценно. Пока ее можно тестировать и оценивать производительность и надежность.

Ну а чтобы уже сейчас приступить к развертыванию реплицируемых дедуплицированных iSCSI-хранилищ для вашей инфраструктуры VMware vSphere, компания StarWind выпустила хороший мануал по настройке этой функции "StarWind iSCSI SAN 5.9 Beta : DD devices with replication".

Ну и будете на VMworld 2012 - заходите на стенд StarWind (номер 536) - коллеги расскажут много интересного.


Таги: StarWind, iSCSI, Deduplication, SAN, VMware, vSphere, Storage

VMware прогибается под натиском Microsoft: стало известно об отмене "налога на vRAM" в VMware vSphere.


Уже совсем скоро в Сан-Франциско состоится коференция VMworld 2012, которую ежегодно проводит компания VMware для всех тех, кому интересны технологии виртуализации и облачные инфраструктуры. Там мы увидим много интересных анонсов и изменений в продуктовой линейке VMware, однако один важный анонс уже, по-сути, сделан: VMware отменит ограничения по vRAM для лицензий различных изданий VMware vSphere 5.1, обновленной версии лидирующей на рынке платформы виртуализации. Напомним, что при превышении суммарного значения сконфигурированной оперативной памяти виртуальных машин (vRAM) для лицензии на процессор, пользователи сейчас вынуждены докупать еще лицензий, чтобы соответствовать условиям VMware. Эта политика и раньше вызывала очень много вопросов, так как демотивировала пользователей наращивать коэффициент консолидации виртуальных машин на хостах VMware ESXi (превышаешь порог по памяти для лицензии->платишь больше), что противоречит самой идее виртуализации.

Очевидно, что решение об отмене лицензирования по vRAM было принято под давлением того факта, что платформа Microsoft Hyper-V 3.0, которая вышла вместе с обновленной ОС Windows Server 2012, окажется практически эквивалентной по большинству функциональных возможностей платформе VMware vSphere. А как мы уже писали, виртуальная инфраструктура на базе Hyper-V+SC VMM обойдется гораздо дешевле оной от VMware.

То отклонение красного графика в результатах калькулятора Microsoft, выраженное в деньгах, которое мы видим при увеличении коэффициента консолидации, и есть тот самый vRAM Tax - налог, который пользователи плятят за то, что более эффективно загружают свои хост-серверы.

Пользователи отреагировали на отмену налога весьма положительно:

Все это, конечно, хорошо, но этого мало. Даже с отмененным налогом на vRAM компания VMware не сможет противостоять ценовому давлению Microsoft в сегменте малого и среднего бизнеса, поэтому в ближайшее время мы увидим несколько значимых изменений в лицензионной политике VMware именно для СМБ (пока не скажу каких).

Также, чтобы нивелировать старания Microsoft по раскрутке встроенной в Hyper-V технологии репликации виртуальных машин между хостами Hyper-V Replica, VMware исключит vSphere Replication из состава VMware Site Recovery Manager и включит ее в состав самой платформы vSphere 5.1.

Кроме этого, мы увидим Shared-nothing горячую миграцию виртуальных машин между хостами (без общего хранилища) - то, что важно для пользователей СМБ, и то, что уже сделано в Hyper-V.

По всем этим потугам мы видим, что VMware начинает пытаться отбиваться от Microsoft (невероятно, да - VMware все-таки заметила, что у нее есть СМБ-пользователи), однако если цены на vSphere для небольших компаний не будут снижены (или не будут выпущены какие-нибудь особенные спецпредложения) - VMware потеряет этот рынок.


Таги: VMware, vSphere, SMB, Hyper-V, Microsoft, vRAM, Licensing, Update

Несколько небольших релизов: обновились VMware vCenter, VMware View и Microsoft Azure.


Не так давно обновились сразу несколько продуктов VMware и Microsoft, о которых мы расскажем в этой заметке. Во-первых, вышло обновление VMware vCenter 5.0 Update 1b (напомним, что не так давно вышло обновление 1a).

VMware vCenter Server 5.0 Update 1b - это патч-релиз, имеющий следующие улучшения:

  • Поддержка следующих СУБД для vCenter:
    • Oracle 11g Enterprise Edition, Standard Edition, Standard ONE Edition Release 2 [11.2.0.3] - 64 bit
    • Oracle 11g Enterprise Edition, Standard Edition, Standard ONE Edition Release 2 [11.2.0.3] - 32 bit
  • Смена БД vCenter Server Appliance - встроенная база данных DB2 Express теперь заменена на VMware vPostgres.
  • Исправления ошибок, приведенные тут.

Во-вторых, вышел минорный апдейт продукта VMware View 5.1.1 (о версии View 5.1 мы уже писали тут). Этот релиз исправляет только некоторые ошибки в компонентах View Connection Server, View Agent и View Persona Management. Соответственно, вам не нужно обновлять компоненты View Security Server, View Transfer Server и View Composer Server. Также появился документ "Obtaining SSL Certificates for VMware View Servers". Основные улучшения касаются представлений View Manager, когда у вас большое количество виртуальных ПК в VDI-инфраструктуре (>10 000), которые разбиты на блоки, в соответствии с референсной архитектурой:

В-третьих, компания Microsoft добавила ОС Windows Server 2012 в галерею виртуальных машин Windows Azure.

Бесплатный доступ к Windows Azure в течение 30 дней можно получить без кредитной карты и прочих платежных данных на сайте официального дистрибьютора сервисов Azure, а если вы хотите триал на 90 дней, то понадобится указать данные кредитной карты, которая оформлена в США, и будьте готовы заплатить за превышение указанных в условиях лимитов использования вычислительных ресурсов.

В-четвертых, компания Microsoft выпустила обновление утилиты Virtual Machine Servicing Tool 2012. Об этой утилите мы уже писали тут.

Напомним, что это средство необходимо в случаях, когда требуется обновление выключенных виртуальных машин (например, эти машины используются редко, но для них в целях безопасности нужно поддерживать необходимый уровень обновлений). Утилита VMST 2012 предназначена для совместной работы с System Center 2012 Virtual Machine Manager (VMM), System Center 2012 Configuration Manager и Windows Server Update Services (WSUS) 3.0 SP2.

Ну и также из последнего - Hyper-V в Windows Server 2012 поддерживает FreeBSD.


Таги: VMware, Microsoft, Update, vCenter, View, Hyper-V, Windows, Server, Azure

Microsoft выпустила бету Virtual Machine Converter Plug-in for VMware vSphere Client.


Компания Microsoft, в преддверии выпуска новой версии своего гипервизора Hyper-V 3.0 в составе ОС Windows Server 2012, предпринимает множество шагов по убеждению пользователей в том, что следует переходить на платформу Microsoft с продукта VMware vSphere.

Напомним основные мероприятия Microsoft, проделанные в последнее время:

Теперь подоспело еще одно средство, подталкивающее пользователей к миграции на платформу Hyper-V - плагин Virtual Machine Converter Plug-in for VMware vSphere Client, находящийся сейчас в бета-версии. Этот плагин позволяет администратору VMware vSphere провести миграцию виртуальной машины на vSphere через пункт контекстного меню ВМ. Поддерживаются клиенты vSphere Client 4.1 и 5.0.

Основные возможности продукта MVMC:

  • Миграция виртуальных машин с хостов VMware vSphere на платформу Hyper-V в составе:
    • Windows Server 2012 Release Candidate.
    • Microsoft Hyper-V Server 2012 Release Candidate
  • Добавление сетевых адаптеров (NICs) сконвертированным на Hyper-V машинам.
  • Настройка функций dynamic memory на сконвертированной машине.
  • Поддержка миграции ВМ, которые находятся в кластере VMware HA/DRS.
  • Поддержка миграции ВМ в Failover Cluster на Hyper-V.

Скачать Virtual Machine Converter Plug-in for VMware vSphere Client можно по этой ссылке.


Таги: Microsoft, V2V, VMware, Hyper-V, vSphere

VMware vCloud Service Evaluation - тестирование облачной IaaS-инфраструктуры открыто для всех.


На днях компания VMware сделала интересный анонс - на сайте vCloud Service Evaluation появилась возможность принять участие в бета-программе тестирования IaaS-сервиса от VMware для всех желающих. Приглашение на участие в бета-программе будут высланы тем, кто зарегистрировался до 27 августа. Для использования сервиса vCloud Service Evaluation пользователям понадобится указать данные кредитной карты. После этого в течение 15 минут должны прийти логин и пароль. Основная задача сервиса - дать пользователям возможность проверить функциональность облака IaaS прямо с сайта VMware, не обращаясь с запросом на тестирование к сервис-провайдерам, список которых доступен тут. Раньше пользователи могли посмотреть за работой сервисов vCloud только через запрос на тестирование к сервис-провайдерам, которым необходимо было предоставить массу информации о компании, целях тестирования и т.п.

Тарификация vCloud Service Evaluation достаточно щадящая - виртуальная машина Linux с 1 ГБ RAM обойдется по цене в $0,04 за час работы. Чтобы пользователи смогли быстрее втянуться в возможности vCloud, после регистрации в vCloud Service Evaluation вы увидите множество уже готовых виртуальных модулей (это бесплатно): Wordpress, Joomla!, Sugar CRM, LAMP stack, Windows Server и множество других веб-приложений.

Для загрузки своей виртуальной машины (Bring Your Own VM, BYOVM) можно использовать консоль vCloud Director или запустить vCloud Connector из своей инфраструктуры, после чего машину можно будет передавать в инфраструктуру одного из сервис-провайдеров, являющихся партнерами VMware по программе VSPP.

В консоли vCloud Service Evaluation есть также отдельные разделы документации, касающиеся использования продуктов сервиса и особенностей функционирования приложений в нем, а также специальное Community, где пользователи и сервис-провайдеры смогут совместно решать проблемы клиентов (это в их интересах, так как дальше они переедут к ним):

Зарегистрироваться на сервисе VMware vCloud Service Evaluation можно по этой ссылке.


Таги: VMware, vCloud, IaaS, Cloud, Cloud Computing, VSPP

Бета-версия StarWind iSCSI SAN 6.0 уже доступна - новые возможности.


Компания StarWind Software объявила о выпуске публичной бета-версии решения номер 1 для создания отказоустойчивых хранилищ для серверов VMware vSphere и Microsoft Hyper-V - StarWind iSCSI SAN 6.0.

О версии StarWind 5.9 мы уже писали, так вот она, не перетекая в релиз, превратилась в бету StarWind iSCSI SAN 6.0, чтобы выйти уже со всеми новыми возможностями в мажорном обновлении.

Новые возможности StarWind iSCSI SAN 6.0:

  • Улучшенное управление HA-устройствами. Теперь можно добавить новый узел кластера StarWind к HA-устройству, удалить узел или переключиться между ними без необходимости заново пересоздавать HA Device.
  • HA-устройство может использовать другие типы устройств StarWind для хранения данных. Это может быть дедуплицированный диск, "тонкое" устройство IBV или устройство типа DiskBridge.
  • Асинхронная репликация для дедуплицированных хранилищ. Любой iSCSI target может быть использован как хранилище назначения для репликации.
  • Возможность загрузки бездисковых серверов по iSCSI для хранилищ StarWind. Подробно процедура настройки этой функции описана в документе "StarWind iSCSI Boot".
  • Улучшенное резервное копирование для виртуальных машин VMware ESX/ESXi.
  • Некоторые дополнительные возможности для резервного копирования виртуальных машин на Hyper-V.
  • Новый GUI для управления процессом резервного копирования (интегрирован в Management Console).
  • Упрощенный процесс подключения серверов Hyper-V и ESXi.

Скачать бета-версию StarWind iSCSI SAN 6.0 можно по этой ссылке. Более подробно о новых возможностях можно прочитать на форуме.


Таги: StarWind, iSCSI, Update, Storage, HA, VMware, vSphere, Microsoft, Hyper-V

VMware vSphere Storage Appliance (VSA) и виртуальные машины, защищенные Fault Tolerance.


Мы уже писали о продукте VMware vSphere Storage Appliance, который позволяет организовать отказоустойчивую инфраструктуру хранилищ на базе локальных дисков хост-серверов VMware ESXi, которые реализуют общее хранилище за счет зеркалирования томов и экспорта хранилищ хостам по протоколу NFS. Узлы ESXi с использованием VSA могут образовывать двух- или трехузловой кластер:

В случае, например, использования двухузлового кластера VSA совместно с технологией VMware Fault Tolerance, может возникнуть такая ситуация - когда Primary VM находится на хосте ESXi и использует основную копию тома с его локальных дисков. В случае сбоя этого хоста возникает двойной отказ - и виртуальной машины, которая на нем исполняется, и ее хранилища, так как оно находилось на дисках хоста. В этом случае возникает неизбежный простой ВМ до того момента, как подхватится хранилище с другого хоста и Secondary VM сможет его использовать.

В такой ситуации VMware рекомендует поступать так:

А именно: размещать хранилище защищенной FT виртуальной машины (ее виртуальные диски и файлы) на хосте, отличном от того, на котором она исполняется, т.е. на том хосте ESXi, где исполняется Secondary VM. В этом случае при любом отказе двойного сбоя не будет - всегда выживет или исполняющаяся ВМ или ее хранилище, которое подхватится Secondary VM.

В случае трехузловой конфигурации VSA можно пойти дальше: разместить Primary VM на одном узле, Secondary VM на другом, а файлы этой ВМ на третьем узле кластера VSA.


Таги: VMware, VSA, Fault Tolerance, FT, HA, Storage

Интересные новости от Teradici: PCoIP будет доступен для Microsoft Remote Desktop Services, но через VMware View.


На днях небольшая, но бодрая компания Teradici, известная тем, что разрабатывает высокопроизводительный протокол PCoIP для решения VMware View (но не только), сделала интересный анонс: теперь протокол PCoIP будет доступен для Microsoft Remote Desktop Services. Официально это решение будет называться Teradici Remote Desktop Services Host (RDSH). Обязательное требование решения от Teradici - доступ к терминальным сессиям через брокер соединений VMware View Manager.

Для кого это сделано? Очевидно, что решение RDSH направлено на тех пользователей, кто использует терминальные службы Microsoft для доступа пользователей к приложениям, размещенным на серверах Microsoft Windows Server, которые они по каким-то причинам не хотят переносить в VDI-среду VMware View. То есть, это частичная конкуренция продукту Citrix XenApp, частью функций которого является предоставление терминального доступа посредством высокопроизводительного протокола HDX/ICA. Соответственно, маркетинг Teradici для нового продукта будет направлен на клиентскую базу Citrix.

Определенная ниша для решения RDSH определенно есть - не все организации хотят выкладывать большие деньги за Citrix XenApp, особенно в случае, когда они используют лишь небольшой набор его функций. Ожидается, что Teradici сможет предложить пользователям высокую производительность протокола PCoIP по сходной цене, без дополнительных ненужных обвесов.

Для VMware этот шаг Teradici также очень выгоден - поскольку решение RDSH завязано на брокер соединений VMware View Manager, VMware сможет предлагать своим клиентам законченное решение как по виртуализации рабочих нагрузок в VDI-среде VMware View, так и для улучшения производительности Legacy-информационных систем, применяющих терминальный доступ на базе Microsoft RDS в Windows Server 2008 (также сообщается о поддержке Windows Server 2012).

Решение RDSH поддерживает ОС Windows 7 в качестве операционной системы для доступа к терминальным сессиям, будет вместимо со всеми тонкими клиентами без необходимости их обновления, а также, само собой, будет поддерживать софтовые клиенты VMware View. Для тех, кто применяет специальную карточку APEX 2800 PCoIP offload card, приятная новость - RDSH также будет ее поддерживать. Однако в версии RDSH 1.0 отсутствует поддержка проброса USB-устройств со стороны клиента в терминальную сессию.

Более подробно о новом решении Teradici будет рассказано на предстоящей конференции VMworld 2012 (секция 917), а его выпуск ожидается в 4-м квартале этого года. Пробную версию Teradici RDSH можно протестировать по этой ссылке.


Таги: VMware, Teradici, PCoIP, Microsoft, RDP, Citrix, XenApp, VDI

Компания VMware покупает решение для аналитики логов Log Insight у компании Pattern Insight.


На прошлой неделе компания VMware объявила о покупке продукта Log Insight у компании Pattern Insight вместе с командой его разработчиков. Финансовые условия сделки не разглашаются.

Решение Log Insight предназначено для аналитики в реальном времени файлов журнала (логов) в корпоративной ИТ-инфраструктуре, где присутствуют десятки и сотни различных информационных систем. Особенно это актуально для облачных инфраструктур частных и публичных облаков. Пользователями Log Insight являются такие компании как Intel, Qualcomm, Tellabs и Motorola.

С помощью Log Insight администраторы и менеджеры датацентров могут своевременно обнаруживать проблемы, отраженные в логах, а также наблюдать за различными трендами и паттернами изменений в инфраструктуре датацентра, которые являются сигналами начинающихся проблем. В продукте реализован механизм индексирования и быстрого поиска по набору логов от различных систем, а также функция аналитики причин сбоев, зафиксированных в логах, на основе шаблонов, определяемых администратором. Все эти возможности могут стать частью решения VMware vCenter Operations уже в ближайшем будущем.

Очевидно, что данная сделка хорошо вписывается в стратегию по укреплению позиций VMware на рынке облачных вычислений. В этом направлении, как вы помните, компания VMware сделала еще 2 важных шага: приобрела компании Nicira и DynamicOps.


Таги: VMware, Log Insight, vCenter Operations, vCOPs

Демонстрация решения NVIDIA VGX для VMware View с поддержкой PCoIP.


Не так давно мы писали о платформе VGX от NVIDIA, которая позволяет применять виртуализацию GPU со стороны сервера, чтобы реализовывать требовательные к графике нагрузки в инфраструктуре виртуальных ПК предприятия (VDI).

Как многие помнят, в информации на сайте NVIDIA в качестве партнеров была указана только компания Citrix. Однако, как нам показали ребята из команды Dell Solution Center, решение VGX замечательно работает с протоколом PCoIP, который использует продукт VMware View.


Таги: VMware, View, VGX, Nvidia, PCoIP, VDI

Компания Microsoft выпустила онлайн-утилиту для сравнения стоимости лицензий на инфраструктуру Hyper-V в Windows Server 2012 с VMware vSphere.


После выпуска окончательной RTM-версии своей новой серверной платформы Windows Server 2012, в которую входит обновленный гипервизор Hyper-V 3.0 (+тут), компания Microsoft усилила маркетинговую атаку на VMware. О некоторых элементах этой атаки мы уже писали вот тут, а на днях Microsoft выпустила онлайн-утилиту для сравнения Hyper-V в Windows Server 2012 с VMware vSphere.

Расчет очень прост - пользователю требуется ввести только планируемое количество виртуальных машин и коэффициент консолидации (число ВМ на физический процессор хоста):

В результате мы получаем сравнение затрат на приобретение программного обеспечения Microsoft (Hyper-V+SC VMM) и VMware для создания виртуальной инфраструктуры:

Интересно заявление Microsoft о том, что на сам гипервизор расходов делать не придется - он входит в Windows Server 2012, и, если покупать лицензии по изданию Datacenter, а вся инфраструктура у вас будет от Microsoft - это действительно так (поскольку лицензии на ВМ для Windows Server вам все равно потребуются).

Под результатами вывода по затратам идет табличка унижения VMware vSphere, выражающая очень однобокое сравнение продуктов:

Интересно обыгран момент с коэффициентом консолидации - Microsoft считает, что, начиная с 8 виртуальных машин на CPU хост-сервера, пользователям VMware vSphere 5 придется доплачивать за vRAM виртуальных машин, которая выйдет за предоставляемые лицензией на процессор лимиты:

Очевидно, что данное сравнение, выпущенное вендором, является весьма предвзятым (как, собственно, и все сравнения от VMware). Поэтому для создания более-менее объективной картины, советуем прочитать наш документ "Сравнение функциональных возможностей VMware vSphere 5 и инфраструктуры Microsoft Hyper-V 3.0".


Таги: VMware, Microsoft, Сравнение, vSphere, Hyper-V, Server, Update

Управление питанием хост серверов ESXi (Host Power Management) в VMware vSphere 5.


Если в VMware vSphere Client вы зайдете на вкладку "Configuration", далее в разделе "Hardware" выберете пункт "Power Management", то увидите вот такую картинку:

Это настройки управления питанием хост-сервера VMware ESXi. Они задают политики управления питанием на основе открытого стандарта Advanced Configuration and Power Interface (ACPI), который определяет схему электропотребления на основе состояний процессора: Power Performance States (P-states) и Processor idle sleep states (C-states).

Режимы P-states — это комбинации напряжений и частот работы ядра процессора для различных типов нагрузок на CPU. Правильно выставленная пара «напряжение—частота» позволяет определить необходимую производительность для выполнения текущих задач CPU, что позволет снизить его энергопотребление и тепловыделение. Состояния P-states являются подмножеством рабочего C-state состояния C0.

Режимы C-states — это состояния, в которых процессор находится в различной ситуации относительно его простоя. Например, C1 (Halt) - состояние, когда процессор не исполняет инструкции, но готов мгновенно (с задержкой примерно 10нс) приступить к их исполнению, C2 (Stop-Clock) - состояние, в котором процессор по-прежнему поддерживает актуальное внутреннее состояние, но просыпается большее (до 100нс) время, при этом дополнительно отключены буферы ввода-вывода. C3 (Sleep) - состояние, в котором процессор отключает питание кэшей второго уровня, но сохраняет прочую служебную информацию. Время пробуждения может составлять до 50 мкс. В современных процессорах есть также множество дополнительных состояний, например, C1E с меньшим энергопотреблением и C6 - когда рабочее напряжение на процессоре может быть понижено до нуля.

Теперь, что мы увидим если нажмем на ссылку "Properties" для Power Management Settings:

Вот что значат эти политики:

  • High performance - данная политика максимизирует производительность процессора за счет его поддержки в наивысшем P-state состоянии все время (то есть, по-сути политика энергосбережения отключена). При этом используются только 2 C-state состояния: С0 (running) и C1 (halted). Соответственно, данный режим выдает максимальную производительность, не имеет инерционности и потребляет больше всего энергии. Эта политика выставлена по умолчанию для VMware ESX/ESXi 4.0 и 4.1.
  • Balanced - эта политика разработана для того, чтобы максимально использовать переключения между P-states в целях экономии энергии. Она обладает слегка большей инерционностью, но почти не влияет на производительность. Эта политика выставлена по умолчанию для VMware ESXi 5.0.
  • Low Power - эта политика придумана для максимального энергосбережения, а значит имеет риски по потере хостом ESXi производительности CPU. Она активно использует состояния C-states при различных видах простоя процессора.
  • Custom - по умолчанию эта политика работает как Balanced, но позволяет настроить различные параметры пользователю. Если оборудование хоста не позволяет операционной системе самостоятельно управлять энергопотреблением, то для этой политики будут доступны только варианты Not Supported или High performance.

Определять политики вручную необходимо только тогда, когда вы точно знаете, что с ними делать. Вот, например, табличка, описывающая custom-параметры политики:

О том, как использовать эти настройки, и как они влияют на энергопотребление процессоров, можно прочитать в документе "Host Power Management in VMware vSphere 5".


Таги: VMware, vSphere, Hardware, Power, ESXi

Работоспособность VMware vSphere Storage DRS (SDRS) с возможностями дисковых массивов, функциональностью vSphere 5 и других продуктов.


Недавно мы уже писали о том, как работает технология балансировки нагрузки на хранилища VMware Storage DRS (там же и про Profile Driven Storage). Сегодня мы посмотрим на то, как эта технология работает совместно с различными фичами дисковых массиов, а также функциями самой VMware vSphere и других продуктов VMware.

Для начала приведем простую таблицу, из которой понятно, что поддерживается, а что нет, совместно с SDRS:

Возможность Поддерживается или нет Рекомендации VMware по режиму работы SDRS
Снапшоты на уровне массива (array-based snapshots) Поддерживается Ручное применение рекомендаций (Manual Mode)
Дедупликация на уровне массива (array-based deduplication) Поддерживается Ручное применение рекомендаций (Manual Mode)
Использование "тонких" дисков на уровне массива (array-based thin provisioning) Поддерживается Ручное применение рекомендаций (Manual Mode)
Использование функций автоматического ярусного хранения (array-based auto-tiering) Поддерживается Ручное применение рекомендаций (Manual Mode), только для распределения по заполненности хранилищ (auto-tiering по распределению нагрузки сам решит, что делать)
Репликация на уровне массива (array-based replication) Поддерживается Ручное применение рекомендаций (Manual Mode)
Тома RDM (Raw Device Mappings) Поддерживается Автоматическое применение рекомендаций (Fully Automated Mode)
Технология репликации на уровне хоста (VMware vSphere Replication) Не поддерживается -----
Снапшоты виртуальных машин (VMware vSphere Snapshots) Поддерживается Автоматическое применение рекомендаций (Fully Automated Mode)
Использование "тонких" дисков на уровне виртуальных хранилищ (VMware vSphere Thin Provisioning) Поддерживается Автоматическое применение рекомендаций (Fully Automated Mode)
Технология связанных клонов (VMware vSphere Linked Clones) Не поддерживается -----
"Растянутый" кластер (VMware vSphere Storage Metro Cluster) Поддерживается Ручное применение рекомендаций (Manual Mode)
Хосты с версией ПО, младше чем vSphere 5.0 Не поддерживается -----
Использование совместно с продуктом VMware vSphere Site Recovery Manager Не поддерживается -----
Использование совместно с продуктом VMware vCloud Director Не поддерживается -----

Комментарии к таблице:

  • Снапшоты на уровне массива - они никак не влияют на работу механизма SDRS, однако рекомендуется оставить его в ручном режиме, чтобы избежать возможных проблем при одновременном создании снапшота и перемещении виртуальных дисков.
  • Дедупликация на уровне массива - полностью совместима со механизмом SDRS, однако рекомендуется ручной режим, так как, с точки зрения дедупликации, наиболее эффективно сначала применить рекомендации по миграции виртуальных дисков, а потом уже использовать дедупликацию (для большинства сценариев).
  • Использование array-based auto-tiering - очевидно, что функции анализа производительности в дисковом массиве и перемещения данных по ярусам с различными характеристиками могут вступить вступить в конфликт с алгоритмами определения нагрузки в SDRS и перемещения vmdk-дисков по хранилищам на логическом уровне. Сам Storage DRS вступает в действие после 16 часов анализа нагрузки и генерирует рекомендации каждые 8 часов, в дисковом же массиве механизм перераспределения блоков по ярусам может работать по-разному: от real-time процесса в High-end массивах, до распределения каждые 24 часа в недорогих массивах. Понятно, что массиву лучше знать, какие блоки куда перемещать с точки зрения производительности физических устройств, поэтому для SDRS рекомендуется оставить выравнивание хранилищ только по заполненности томов VMFS, с отключенной I/O Metric.
  • Репликация на уровне массива - полностью поддерживается со стороны SDRS, однако, в зависимости от использования метода репликации, во время применения рекомендаций SDRS виртуальные машины могут остаться в незащищенном состоянии. Поэтому рекомендуется применять эти рекомендации SDRS во время запланированного окна обслуживания хранилищ.
  • VMware vSphere Storage Metro Cluster - здесь нужно избегать ситуации, когда виртуальный диск vmdk машины может уехать на другой сайт по отношению к хосту ESXi, который ее исполняет (когда используется общий Datastore Cluster хранилищ). Поэтому, а еще и потому, что распределенные кластеры могут строиться на базе технологий синхронной репликации хранилищ (см. предыдущий пункт), нужно использовать ручное применение рекомендаций SDRS.

  • Поддержка VMware vSphere Site Recovery Manager - на данный момент SDRS не обнаруживает Datastore Groups в SRM, а SRM не отслеживает миграции SDRS по хранилищам. Соответственно, при миграции ВМ на другое хранилище не обновляются protection groups в SRM, как следствие - виртуальные машины оказываются незащищенными. Поэтому совместное использование этих продуктов не поддерживается со стороны VMware.
  • Поддержка томов RDM - SDRS полностью поддерживает тома RDM, однако эта поддержка совершенно ничего не дает, так как в миграциях может участвовать только vmdk pointer, то есть прокси-файл виртуального диска, который занимает мало места (нет смысла балансировать по заполненности) и не генерирует никаких I/O на хранилище, где он лежит (нет смысла балансировать по I/O). Соответственно понадобиться эта поддержка может лишь на время перевода Datastore, где лежит этот файл-указатель, в режим обслуживания.
  • Поддержка VMware vSphere Replication - SDRS не поддерживается в комбинации с хостовой репликацией vSphere. Это потому, что файлы *.psf, используемые для нужд репликации, не поддерживаются, а даже удаляются при миграции ВМ на другое хранилище. Вследствие этого, механизм репликации для смигрированной машины считает, что она нуждается в полной синхронизации, что вызывает ситуацию, когда репликация будет отложена, а значит существенно ухудшатся показатели RTO/RPO. Поэтому (пока) совместное использование этих функций не поддерживается.
  • Поддержка VMware vSphere Snapshots - SDRS полностью поддерживает спапшоты виртуальных машин. При этом, по умолчанию, все снапшоты и виртуальные диски машины при применении рекомендаций перемещаются на другое хранилище полностью (см. левую часть картинки). Если же для дисков ВМ настроено anti-affinity rule, то они разъезжаются по разным хранилищам, однако снапшоты едут вместе со своим родительским диском (см. правую часть картинки).

  • Использование тонких дисков VMware vSphere - полностью поддерживается SDRS, при этом учитывается реально потребляемое дисковое пространство, а не заданный в конфигурации ВМ объем виртуального диска. Также SDRS учитывает и темпы роста тонкого виртуального диска - если он в течение последующих 30 часов может заполнить хранилище до порогового значения, то такая рекомендация показана и применена не будет.
  • Технология Linked Clones - не поддерживается со стороны SDRS, так как этот механизм не отслеживает взаимосвязи между дисками родительской и дочерних машин, а при их перемещении между хранилищами - они будут разорваны. Это же значит, что SDRS не поддерживается совместно с продуктом VMware View.
  • Использование с VMware vCloud Director - пока не поддерживается из-за проблем с размещением объектов vApp в кластере хранилищ.
  • Хосты с версией ПО, младше чем vSphere 5.0 - если один из таких хостов поключен к тому VMFS, то для него SDRS работать не будет. Причина очевидна - хосты до ESXi 5.0 не знали о том, что будет такая функция как SDRS.

Больше подробностей приведено в документе "VMware vSphere Storage DRS Interoperability".


Таги: VMware, SDRS, Storage DRS, Storage, ESXi, SRM, View, VMDK

Использование продукта vGate R2 для защиты инфраструктуры виртуальных ПК VMware View.


Многие компании для защиты своей виртуальной инфраструктуры VMware vSphere используют сертифицированное средство vGate R2поддержкой vSphere 5). Мы уже много писали о способах защиты и функциональности продукта для серверов виртуализации и виртуальных машин, исполняющих серверные нагрузки. В этой заметке, мы хотим рассказать о том, что продукт vGate R2 также поддерживает и инфраструктуру виртуальных ПК VMware View.

Архитектура использования vGate R2 совместно с VMware View похожа на оную с использованием виртуальных серверов, только защищается не vCenter, а View Connecton Server:

На компьютере, где установлен View Connection Server, должно быть не менее двух Ethernet-интерфейсов, один из которых будет подключен к внешнему периметру сети администрирования виртуальной инфраструктуры, а другой — к сети ВМ, где находятся рабочие места пользователей.

Для предоставления доступа View Connection Server к vCenter необходимо настроить определенный набор правил доступа к vCenter для учетной записи компьютера, где находится View Connection Server. Набор правил для предоставления доступа View Connection Server к vCenter содержится в шаблоне "Доступ View Connection сервера к vCenter".

В этом шаблоне указаны порты доступа View Connection Server к vCenter, заданные по умолчанию (8443 и 443). Если используются порты, отличные от стандартных, необходимо указать номера этих портов в правилах доступа. Если планируется поддержка View Client with Local Mode, то необходимо настроить еще одно правило для учетной записи компьютера, где находится View Connection Server. Это правило должно разрешить доступ к серверу ESXi, на котором исполняется ВМ с View Transfer Server, по TCP-порту 902.

В целях безопасности настоятельно не рекомендуется предоставлять доступ к другим объектам (или по другим портам) защищаемого периметра для учетной записи компьютера, где находится View Connection Server.

После настройки правил доступа перезапустите сервис vGate Client Authorization Service на сервере авторизации.


Таги: vGate, Security Code, Security, VMware, View

Компания Oracle покупает Xsigo Systems - ответ на покупку Nicira компанией VMware.


Совсем недавно мы писали про программно-определяемые сети (Software-defined networking, SDN), концепцию которых продвигала компания Nicira, которая уже скоро стенет частью VMware. Продукт компании Nicira, Network Virtualization Platform (NVP) позволяет создать единый виртуальный пул сетевых ресурсов, полученный за счет логического объединения сетевых коммутаторов и интерефейсов датацентра средствами специализированного программного обеспечения.

На этой неделе компания Oracle сделала ответный шаг на действия VMware по приобретению Nicira: Oracle приобретает компанию Xsigo Systems, занимающуюся технологиями виртуализации сетевой инфраструктуры и, как заявлено, теми же самыми программно-определяемыми сетям, что и Nicira (однако ниже мы покажем, что это не совсем так). Сумма проводимой сделки не разглашается, однако, очевидно, что это достаточно крупная сделка, учитывая известность компании в данном сегменте и перспективность этой фундаментальной технологии.

Давайте посмотрим видео Xsigo о том, как работает их технология сетевой виртуализации в флагманском продукте Data Center Fabric:

Продукт Xsigo Systems призван решать те же проблемы, что и Nicira NVP. В условиях виртуализации сетей и хранилищ развертывание новой виртуальной машины происходит за считанные минуты, а вот настройка сетевого взаимодействия, VLAN'ов безопасности и политик в различных сегментах сети предприятия занимает часы и дни. Решая эту проблему, продукт Data Center Fabric позволяет объединить сетевые ресурсы в единый пул и подключать виртуальные машины к нужным политикам и портам коммутаторов в несколько кликов. Все это особенно актуально для облачных провайдеров, имеющих в своем облаке десятки и сотни различных компаний, развертывающих свои виртуальные машины в собственной сетевой среде.

Поскольку из ролика как всегда непонятно, как это работает, приведем отзывы некоторых источников о том, что такое Xsigo DCF. Например, Wired пишет, что DCF - это продукт попроще, чем NVP от Nicira, и предназначен он для виртуализации ввода-вывода (I/O Virtualization) при подключении оконечного оборудования вроде HP Virtual Connect:

Although comparisons with VMware’s $1.26 billion acquisition of Nicira are inevitable, Xsigo actually makes a very different type of product. Whereas Nicira offers a tool that lets you build entire computer networks using nothing but software, Xsigo sells a simpler product called Data Centre Fabric (DCF), which is specifically designed to virtualize network cards and connections, reducing the amount of physical hardware and network cabling required to run a network of virtual machines.

....

This reduces both the amount of physical networking hardware required and the amount of cabling required. DCF is more comparable to HP’s Virtual Connect product. But Virtual Connect only works with HP hardware and DCF works with servers and hardware from multiple vendors.

Кстати, у Xsigo используется такое программно-аппаратное решение, которое находится "On top of the rack", агрегирующее сетевые интерфейсы оборудования и называющееся Xsigo I/O Director (сейчас он называется Fabric Diector):

Как мы видим, I/O Director соединяется с серверами по технологии 10G Ethernet или Infiniband. Отмечается также, что продукт Xsigo не требует использования виртуальных сетей VLAN для изоляции трафика виртуальных машин. При этом DCF не поддерживает технологию OpenFlow. На данный момент Xsigo DCF поддерживает аж пять гипервизоров (очевидно, поддержка должна быть на уровне виртуальных коммутаторов для платформы виртуализации): VMware vSphere, Citrix XenServer, Microsoft Hyper-V, Oracle VM Server и Red Hat Enterprise Virtualization.

Есть и другие мнения о том, чем за последние полгода стало решение Xsigo DCF:

Xsigo is the real SDN solution, it allows you to spin up connectivity from any server to any server on the fly in software and scales to thousands of servers. Nicira is nothing more than a tunneling technology inside legacy 30 year old switching technology, it doesn't solve the latency or speed requirements for today's datacenter nor the dynamic configuration requirements. Nicira and other openflow technologies are nothing more than a stop gap solution to get around configuring many different switch layers.

Однако большинство склоняется, все-таки, к тому, что DCF-это не SDN-решение, а более нишевая технлогия, направленная на уменьшение количества соединений и упрощения процедур реконфигурации программного и аппаратного обеспечения в случае изменений в сети (например, при изменении хранилища с FC на iSCSI).

Управление виртуальными сетями и соединениями производится из центральной консоли Xsigo Fabric Manager, который управляет виртуальными ресурсами, сетями, QoS и имеет шаблоны соеднинений для сетей виртуальных машин:

В составе решения есть также компоненты Xsigo Storage Accelerator и Performance Monitor:

Есть также и модная управлялка Xsigo XMS 3.0 для iPad:

Чуть более подробно о решении Xsigo можно прочитать в статье "Under the Hood with the Data Center Fabric".


Таги: Oracle, Xsigo, vNetwork, SDN, VMware, Nicira, VM Server

На VMware Labs появился Boomerang 2.0 - теперь с поддержкой VMware View.


Не так давно мы писали про проект Boomerang, который доступен на сайте VMware Labs. Это утилита, которая размещается в трее и с помощью которой можно получать быстрый доступ к консоли виртуальных машин (через VMware Remote Console, VMRC) и управлению питанием. Машины можно помечать звездочками, чтобы выделить их в списке Favorites. К сожалению, Boomerang не работает для бесплатного VMware ESXi (см. комментарии), но поддерживает одновременное подключение к нескольким хост-серверам в платной версии.

На днях произошло обновление продукта до версии Boomerang 2.0.

Среди новых возможностей VMware Boomerang 2.0:

  • Поддержка нескольких серверов View Connection Server одновременно и их виртуальных машин.
  • При установке продукта поддержку VMware vSphere или VMware View можно опционально отключить.
  • Сортировка серверов в алфавитном порядке.
  • Если включен поиск ВМ, то список ВМ серверов автоматически раскрывается.

Напомним основные возможности продукта VMware Boomerang:

  • Поддержка соединения к нескольким серверам ESX/ESXi и нескольким серверам vCenter одновременно.
  • Поддержка соединения к нескольким серверам View Connection Server одновременно.
  • Соединение с десктопами VMware View по протоколу PCoIP или RDP.
  • Автоматическое перенаправление клиентских принтеров в десктопы View через ThinPrint.
  • Сохранение логина и пароля для входа на серверы.
  • Панель Favorites для удобства просмотра машин на нескольких серверах.
  • Удобная панель управления питанием ВМ.
  • Поиск машины в списке происходит набором ее имени на клавиатуре.
  • Серверы с большим количеством ВМ автоматически сворачиваются в гиперссылки, которые можно развернуть.
  • Автоматический поиск обновлений для утилиты.
  • Секция Recently Used, показывающая машины, с которыми были последние соединения.
  • Быстрый поиск ВМ по всем серверам.

Скачать VMware Boomerang 2.0 можно по этой ссылке (всего 12 МБ).


Таги: VMware, View, Boomerang, Labs, ESXi, VMachines

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.


Как оказалось у нас на сайте нет инструкции по подключению локальных дисков сервера VMware ESXi в качестве RDM-дисков для виртуальных машин. Восполняем этот пробел. Как известно, если вы попытаетесь добавить локальный диск сервере ESXi в качестве RDM-тома для ВМ, вы там его не увидите:

Связано это с тем, что VMware не хочет заморачиваться с поддержкой дисков различных производителей, где будут размещены производственные виртуальные машины. Поэтому нам нужно создать маппинг-файл VMDK на локальное дисковое устройство, который уже как диск (pRDM или vRDM) подключить к виртуальной машине.

Для начала найдем имя устройства локального SATA-диска в списке устройств ESXi. Для этого перейдем в соответствующую директорию командой:

# cd /dev/disks

И просмотрим имеющиеся диски:

# ls -l

Нас интересуют те диски, что выделены красным, где вам необходимо найти свой и скопировать его имя, вроде t10.ATA___....__WD2DWCAVU0477582.

Далее переходим в папку с виртуальной машиной, которой мы хотим подцепить диск, например:

# cd /vmfs/volumes/datastore1/<vm name>

И создаем там маппинг VMDK-диск для создания RDM-тома, при этом можно выбрать один из режимов совместимости:

Для pRDM (Physical RDM):

# vmkfstools -z /vmfs/devices/disks/<имя t10.ATAитп> rdm_WD2DWCAVU0477582.vmdk

Для vRDM (Virtual RDM):

# vmkfstools -r /vmfs/devices/disks/<имя t10.ATAитп> rdm_WD2DWCAVU0477582.vmdk

После того, как vmdk mapping file создан, можно цеплять этот диск к виртуальной машине через Add Virtual Disk (лучше использовать для него отдельный SCSI Controller):

Второй способ, который работает не для всех дисков - это отключение фильтра на RDM-диски (это можно сделать и на сервере VMware vCenter). Для этого в vSphere Client для хоста ESXi нужно пойти сюда:

Configuration > Software > Advanced Settings > RdmFilter

Там и выставляется соответствующая галочка:

Однако, повторимся, этот метод (в отличие от первого) работает не всегда. Ну и учитывайте, что подобная конфигурация не поддерживается со стороны VMware, хотя и работает.


Таги: VMware, ESXi, Storage, RDM, VMDK, VMachines, vCenter

Еще несколько аспектов работы техники VMware vSphere VAAI.


Мы уже писали о том, что такое и как работает технология VMware vStorage API for Array Integration (VAAI) (а также немного тут), которая позволяет передать операции по работе с хранилищами, которые выполняет компонент Data Mover в VMkernel, на сторону дискового массива. Это существенно улучшает показатели производительности различных операций (клонирования и развертывания ВМ, использования блокировок) за счет того, что они выполняются самим массивом, без задействования сервера VMware ESXi:

Если ваш массив не поддерживает примитивы VAAI, то чтобы склонировать виртуальный диск VMDK размером 64 ГБ, компонент Data Mover реализует эту операцию следующим образом:

  • Разделяет диск 64 ГБ на малые порции размером в 32 МБ.
  • Эту порцию 32 МБ Data Mover разделяет еще на маленькие операции ввода-вывода (I/O) размером в 64 КБ, которые идут в 32 параллельных потока одновремнно.
  • Соответственно, чтобы передать 32 МБ, Data Mover выполняет 512 операций ввода вывода (I/Os) по 64 КБ.

Если же массив поддерживает примитив XCOPY (он же Hardware Offloaded Copy и SAN Data Copy Offloading), то для передачи тех же 32 МБ будут использованы I/O размером в 4 МБ, а таких I/O будет, соответственно, всего 8 штук - разница очевидна.

Интересно, как работает VAAI с точки зрения ошибок при передаче данных: например, мы делаем клонирование ВМ на массиве с поддержкой VAAI, и вдруг возникает какая-то ошибка. В этом случае VMkernel Data Mover подхватывает операцию клонирования с того места, где VAAI вызвал ошибку, и производит "доклонирование" виртуальной машины. Далее ESXi периодически будет пробовать снова использовать VAAI на случай, если это была кратковременная ошибка массива.

При этом проверки в разных версиях ESXi будут производиться по-разному:

  • Для ESX/ESXi 4.1 проверка будет производиться каждые 512 ГБ передаваемых данных. Посмотреть этот параметр можно следующей командой:

esxcfg-advcfg -g /DataMover/HardwareAcceleratedMoveFrequency
Value of HardwareAcceleratedMoveFrequency is 16384

Это значение частоты 16384 нужно умножить на порцию 32 МБ и мы получим 512 ГБ. Чтобы поменять эту частоту, можно использовать команду:

esxcfg-advcfg -s <новое значение> /DataMover/HardwareAcceleratedMoveFrequency

  • Для ESXi 5.0 и выше все проще - проверка производится каждые 5 минут.

Помимо описанных в нашей статье примитивов Full Copy, Zero Block и ATS, начиная с версии ESXi 5.0, поддерживаются еще 2 примитива:

  • Thin Provisioning - механизм сообщения хостом ESXi дисковому массиву о том, что виртуальная машина или ее файлы с Thin LUN были удалены или перемещены (в силу разных причин - Storage vMotion, консолидация снапшотов и так далее), поэтому массив может забрать это дисковое пространство себе назад.
  • Block Delete (UNMAP) - собственно, сам механизм забирания массивом назад дискового пространства через функции SCSI Unmap. Поддерживается с vSphere 5.0 Update 1, так как раньше с этим примитивом были проблемы. Более подробно об этом механизме можно прочитать в KB 2014849, а также в статье "VAAI Thin Provisioning Block Reclaim/UNMAP In Action".

С точки зрения дисковых массивов, работающих на NFS (прежде всего, NetApp) в ESXi 5.0 также появилась поддержка примитивов VAAI:

  • Full File Clone – аналог функций Full Copy для VAAI на блочных хранилищах, предназначен для клонирования файлов виртуальных дисков VMDK.
  • Native Snapshot Support – передача на сторону массива функций создания снапшота ВМ.
  • Extended Statistics – включает возможность просмотра информации об использовании дискового пространства на NAS-хранилище, что полезно для Thin Provisioning.
  • Reserve Space – включает возможность создания виртуальных дисков типа "thick" (фиксированного размера) на NAS-хранилищах (ранее поддерживались только Thin-диски).

Функции VAAI включены по умолчанию и будут использованы тогда, когда станут доступны (например, при обновлении Firmware дискового массива, которое поддерживает VAAI).


Таги: VMware, vSphere, VAAI, Storage, ESXi, Enterprise, SAN

VMware WSX Server в VMware Workstation 2012 - июльское обновление.


В конце июня мы писали про технологическое превью продукта VMware Workstation 2012 (плюс тут), в котором появилось новое средство WSX Server - возможность прямого доступа к консоли виртуальной машины из браузера без каких-либо плагинов.

Напомним, что WSX Server, который есть в VMware Workstation 2012, работает на базе технологии HTML 5 (с поддержкой WebSockets и Canvas), что подразумевает отсутствие необходимости иметь какие-либо дополнительные компоненты, кроме веб-браузера, чтобы получить доступ к консоли виртуальной машины и средствами управления ей. В качестве веб-браузеров, той или иной степени совместимых с HTML 5, можно использовать Chrome 17, Firefox 10, IE 10, Safari 5 на ПК с Mac OS и iOS 5 для iPad. Также стоит отметить, что VMware WSX поддерживает новые iPad с дисплеем Retina.

Итак, основные июльские нововведения технологии WSX:

  • Улучшенная домашняя страница - теперь на ней есть возможность добавлять серверы в список, также на нее будет возможность добавить часто используемые ВМ

  • Улучшенная страница при выборе сервера WSX - теперь виртуальные машины можно фильтровать по состоянию (powered on и т.п.), а также есть поиск

  • Большая кнопка "Включить ВМ" - удобна для iPad'ов:

  • Улучшенный Touch Input - для планшетов и смартфонов поддерживаются жесты, которыми можно эмулировать не только правую кнопку мыши (нажать и подержать пальцем), но и среднюю. Если держать одновременно двумя пальцами и тащить вниз или вверх - будет скроллинг.
  • Поддержка колесика мыши - работает в браузерах на PC и Mac.
  • Улучшен механизм работы с дисплеями Retina - теперь WSX не вываливается в пониженное разрешение при повторном соединении после обрыва. Дорисованы новые иконки и пофикшены баги.
  • Поддержка шифрованного SSL-соединения. Теперь можно назвать сертификаты именами wsx.crt и wsx.key и положить их в папки etc/vmware/wsx/ssl/directory (Linux) или Application Data\VMware\VMware WSX\SSL (Windows). Этого не сделано по умолчанию, так как SSL глючит с WebSockets.
  • Упрощенная установка - для Linux, например, больше не требуется Python. Для Windows улучшили стабильность.
  • Улучшенное обнаружение общих виртуальных машин (Shared VMs).
  • Улучшения производительности - при соединении и изменении разрешения.
  • Множественные исправления ошибок.

Напомним, что функции WSX работают, по-прежнему, в экспериментальном режиме.

Более подробно о VMware Workstation 2012 TP June можно прочитать на странице ведущего разработчика, а также на официальной странице обновленного продукта. Скачать VMware Workstation 2012 TP June вместе с компонентами WSX можно по этой ссылке.


Таги: VMware, Workstation, Update, Beta, WSX, VMachines, Blogs

Защита виртуальной инфраструктуры VMware vSphere от специфических типов угроз с помощью решения vGate R2.


Мы уже много писали о продукте vGate R2 - средстве номер 1 для защиты виртуальной инфраструктуры VMware vSphere, которое полностью поддерживает пятую версию этой платформы, имеет сертификаты ФСТЭК и предназначено для безопасной настройки хост-серверов и ВМ средствами политик, а также защиты от НСД. В прошлых статьях мы рассказывали о защите облачных инфраструктур сервис-провайдеров от внутренних и внешних угроз. Сегодня мы постараемся обобщить угрозы, существующие в виртуальной среде, и предложить средства защиты на базе продукта vGate R2 и других решений от компании Код Безопасности.


Таги: vGate, Security Code, Security, VMware, vSphere, ESXi

Как сбросить пароль в VMware vSphere 5 Management Assistant (vMA).


Достаточно давно мы уже описывали средство централизованного администрирования хост-серверами VMware vSphere - vSphere Management Assistant (vMA). По сути, vMA - это вынесенная "сервисная консоль" за пределы хост-серверов ESXi в отдельный виртуальный модуль (Virtual Appliance), с которого удобно выполнять консольные команды RCLI (например, мониторинга - resxtop), а также хранить и запускать различные скрипты. Сегодня мы расскажем о том, как восстновить (сбросить) пароль на виртуальном модуле vMA.

Итак, загружаем VMware vMA 5, устанавливаем выбор на пункте меню "SUSE Linux Enterprise Server 11 SP1 for VMware" и нажимаем кнопку <e>:

В появившемся далее экране выбираем строчку с "kernel /vmlinuz" и снова нажимаем <e>:

В следующем экране, в строке ввода, вбиваем init=/bin/bash:

После нажатия <Enter>, вы вернетесь в педыдущее окно, где нужно нажать <b> для загрузки vMA. После загрузки вводим команду, которой и устанавливаем новый пароль:

# passwd vi-admin

Пароль установить непросто. Он должен соответствовать следующим политикам:

  • Не менее 8 символовEight characters
  • Хотя бы один символ в верхнем регистре
  • Хотя бы один - в нижнем
  • Хотя бы одна цифра
  • Хотя бы один спецсимвол (#, $ и т.п.)

Понятно, что такой пароль никому не удобен. Поменять его можно командой:

# sudo passwd vi-admin

vMA будет жаловаться, однако пароль сменит:


Таги: VMware, vSphere, vMA, ESXi

Что такое и как работает технология VXLAN для создания виртуальных сетей нового поколения для виртуальных машин VMware vSphere.


С покупкой VMware компании Nicira стало больше разговоров о технологии VXLAN (Virtual eXtensible LAN), которая предоставляет расширенный механизм создания виртуальных сетей VLAN в крупных ИТ-инфраструктурах, объединяющих несколько датацентров компании (о ней мы уже упоминали). Разумеется, она нацелена на виртуализацию, и ее поддержка будет включена в платформу VMware vSphere в недалеком будущем. То есть VXLAN - это замена VLAN для создания прозрачной мобильной сетевой среды для виртуальных машин, имеющих возможность перемещаться между датацентрами.

Суть имеющейся сегодня проблемы заключается в том, что IP-адрес системы определяет две, по-сути разные, сущности: идентификатор системы и указатель на географическое размещение в сети (датацентр, сегмент), кроме того стандартная концепция VLAN позволяет использовать только до 4096 виртуальных сетей для логической изоляции классов систем, что в крупных инфраструктурах иногда оказывается недостаточно (особенно это касается IaaS-инфраструктур сервис-провайдеров, работающих с сотнями организаций, у каждой из которых свои VLAN).

Поэтому компании Cisco и VMware, к которым присоединились Citrix и Red Hat, разработали стандарт VXLAN, позволяющий организовать логические сети L2 поверх уровня L3 с возможностью минимального внесения изменений в существующую инфраструктуру сетевого взаимодействия в организациях. На данный момент черновик стандарта VXLAN в реализации IPv4 отправлен в организацию IETF, вскоре там будет и документ по реализации в IPv6.

Обзорный ролик по технологии VXLAN:

Образно говоря, технология VXLAN - это способ создания новых логических L2-сетей в рамках уже существующих L3-сетей. В одной VXLAN-сети виртуальная машина уникально идентифицируется двумя следующими параметрами:

  • VXLAN Network Identifier (VNI) - 24-битный идентификатор виртуальной сети, а значит их всего может быть более 16 миллионов штук
  • MAC-адрес машины

Соответственно, в одной VXLAN-сети не может быть машин с одинаковым MAC-адресом, но в разных VXLAN-сетях они вполне могут существовать (что актуально для виртуальных машин, MAC которых генерируется автоматически и глобально не уникален). Большое количество возможных VXLAN-сетей позволяет виртуальным машинам "путешествовать" между инфраструктурой организации и сторонними сервис-провайдерами без изменения сетевой идентификации, сохранением политик и изоляции внутри виртуальной сети безотносительно ее физического размещения (у себя или у IaaS-провайдера).

Для работы инфраструктуры VXLAN есть следующие компоненты:

  • Необходима поддержка режимов Multicast, IGMP и PIM
  • Идентификатор VNI внутри IP-пакета, только машины с одинаковым VNI могут взаимодействовать между собой
  • Шлюз VXLAN Gateway
  • Компонент VXLAN Tunnel End Point (VTEP) на стороне сервера виртуализации
  • Виртуальная сеть VXLAN Segment/VXLAN Overlay

С точки зрения IP-пакета VXLAN, в сети IPv4 его размер увеличивается на 50 байт, а в сети IPv6 - на 70 байт. Работает это примерно так:

Допустим у нас есть виртуальная сеть VXLAN с VNI равным 864. Когда виртуальная машина VM1 хочет послать IP-пакет виртуальной машине VM2 происходят следующие вещи:

  • VM1 по протоколу ARP посылает пакет с запросом MAC-адреса VM2
  • Компонент VTEP1, размещенный на первом сервере VMware ESXi, инкапсулирует этот ARP-пакет в мультикаст-пакет, ассоциированный с виртуальной сетью с VNI 864
  • Все остальные VTEP, получающие этот пакет, добавляют ассоциацию VTEP1 и VM1 в свои VXLAN-таблицы
  • VTEP2  получает пакет, декапсулирует его и посылает броадкаст на портгруппы виртуальных коммутаторов, которым присвоен VXLAN c VNI 864
  • VM2, находящаяся в одной из этих портгрупп, получает ARP-пакет и отвечает своим MAC-адресом
  • VTEP2 на втором хосте ESXi формирует юникастовый пакет и отправляет его уже по существующему маршруту
  • VTEP1 декапсулирует пакет и передает его виртуальной машине VM1

Теперь обратимся к структуре VXLAN-пакета:

В нем есть следующие заголовки (слева-направо):

Outer MAC Header (Ethernet Header)

Он содержит следующие поля:

  • Destination Address - это MAC-адрес VTEP назначения, если этот VTEP является локальным по отношению к ближайшему роутеру, или MAC-адрес самого роутера, если VTEP находится за ним
  • VLAN - опциональное поле с тэгом VLAN (не обязательно в VXLAN-реализации)
  • Ethertype - тип пакета (для IPv4 установлен в 0×0800

Outer IP Header

  • Protocol - содержит значение 0×11, чтобы обозначить, что это UDP-пакет
  • Source IP - IP-адрес VTEP источника
  • Destination IP - IP-адрес VTEP назначения

UDP Header

  • Source Port - устанавливается передающим VTEP
  • VXLAN Port - порт VXLAN IANA (еще не определен)
  • UDP Checksum - контрольная сумма пакета на уровне VXLAN

VXLAN Header

  • VXLAN Flags - различные флаги
  • VNI - 24-битное поле с идентификатором VXLAN
  • Reserved - набор зарезервированных полей

Итак, VM1 по описанному выше алгоритму узнала MAC-адрес VM2, после чего начинает ей адресно слать пакеты примерно так:

  • VM1 посылает IP-пакет к VM2 с адреса 192.168.0.100 на адрес 192.168.0.101
  • VTEP1 берет пакет и инкапсулирует его, добавляя следующие заголовки:
    • VXLAN header с идентификатором VNI=864
    • Стандартный UDP-заголовок с назначенным портом (VXLAN IANA)
    • Стандартный IP-заголовок с IP-адресом VTEP назначения и признаком UDP-пакета
    • Стандартный MAC-заголовок с MAC-адресом следующего устройства (next hop). В данном случае это роутер с маком 00:10:11:FE:D8:D2, который будет использовать стандартную маршрутизацию пакета по IP-сети до VTEP2.
  • Далее VTEP2 получает такой пакет, распаковывает его (он узнает, что это VXLAN, так как это UDP-пакет) и вытаскивает VNI (864). Далее уже очищенный от обертки IP-пакет направляется к VM2, которая находится в портгруппе с VNI 864, перед чем VTEP убеждается, что она может получить пакет
  • Виртуальная машина VM2 получает IP-пакет очищенным, как обычный IP-пакет

Таким образом, технология VXLAN, поддерживаемая в программном обеспечении платформы виртализации и роутеров позволит расширить сферу применения виртуальных сетей VXLAN в виртуальных облачных средах, где виртуальная машина сможет существовать в различных географически разделенных датацентрах, а пользователи смогут распределять нагрузку между своим частным облаком и облаком сервис-провайдера, не прибегая к переконфигурации виртуальных машин в рамках их виртуальных сетей.

Что еще можно почитать на эту тему (источники данной статьи):


Таги: VMware, vSphere, VXLAN, vNetwork, ESXi, Cisco

Компания VMware приобрела Nicira за $1 260 000 000 - зачем?


Многие интересующиеся значимыми событиями, происходящими на рынке виртуализации, уже, наверное, читали о том, что VMware приобрела компанию Nicira за 1,26 миллиарда долларов (из них $1,05 млрд. - кэшем, что весьма много). Сумма этой сделки заставляет обратить на нее внимание и задуматься над тем, как ведущие компании в сфере облачных вычислений видят себе будущее частных облаков.

Для начала небольшой видео-обзор решения Nicira (основной продукт компании - Nicira Network Virtualization Platform ):

Из ролика ничего не понятно - это неудивительно, поскольку технология эта фундаментальная и весьма непростая. Начнем с проблемы, которая существует в крупных компаниях по всему миру, использующих технологии виртуализации на платформе VMware vSphere. Крутые и большие организации уже давно видят виртуализацию не только как платформу, но и как основу существования облаков в контексте абстракции вычислительных ресурсов:

Основа данной концепции такова: мы берем различное железо и хранилища, которые есть в нашем датацентре, объединяем их в общий пул с помощью платформы виртуализации серверов. Далее эти вычислительные мощности и стораджи мы отделяем от логической ценностной единицы ИТ - приложений - с помощью абстракций - виртуальных машин и виртуальных хранилищ. Общий вычислительный пул датацентра мы разрезаем на логически удобные нам единицы (пулы ресурсов) и дальше предоставляем пользователям виртуальные машины с соответствующим уровнем SLA из абстрактных сущностей, которые построены поверх оборудования и вычислительной архитектуры с определенными характеристиками. Делается это с помощью VMware vCloud Director с его концепцией виртуальных датацентров:

Но, помимо абстракции вычислительных ресурсов, нам нужно еще абстрагировать и сервисы хранения. Для этого сегодня существуют техники профилирования хранилищ (Storage Profiles) и средства автоматической балансировки нагрузки на них (Storage DRS):

Следующий аспект: виртуальные машины существуют на серверах и хранилищах уже на логическом, а не на физическом уровне (независимо от вендоров железа), как сделать так, чтобы в датацентре они были защищены политиками, да и сам периметр датацентра тоже был защищен? Ответ прост - есть семейство продуктов VMware vShield:

Прекрасно. Вроде все? Нет, не все. Невиртуализованной у нас осталась еще одна часть, а именно - сети. VMware предоставляет нам распределенный виртуальный коммутатор (Distributed vSwitch) с базовыми технологиями изоляции и контроля (Private VLAN), есть также продукт от Cisco - Nexus 1000V, который выполняет схожие функции, но обладает более широкими возможностями. Все это делается на уровне абстракции сетевых интерфейсов хост-серверов.

Однако в данном подходе нет самого главного - средств абстракции и виртуализации физического сетевого оборудования (коммутаторов, маршрутизаторов), большим парком которых применительно к виртуальным машинам нужно централизованно управлять в датацентре компании, где есть сотни виртуальных сетей, политик и конфигураций. Все это приводит к тому, что на развертывание новой виртуальной машины уходит 2-3 минуты (на сервере+хранилище), а вот на настройку сетевого взаимодействия, VLAN, безопасности, политик и прочего в забюрократизированных организациях уходит несколько дней.

Вот эту фундаментальную проблему и решает компания Nicira, так недешево доставшаяся VMware:

Суть концепции Nicira применительно к сетевому взаимодействию та же самая, что и в серверной виртуализации: собираем весь набор сетевого оборудования разных вендоров в единый пул, где уже на логическом уровне определяем виртуальные сети и политики, после чего можем цеплять их к виртуальным машинам централизованно:

Все это называется программно-определяемые сети (Software-defined networking, SDN) и работает на базе программных решений, разрабатываемых Nicira с далекого 2007 года. Интересно, что основательница VMware, Диана Грин, которую двинули с поста CEO компании, была одним из инвесторов Nicira, о чем мы писали 2 года назад. Диана вышла с неплохим профитом, а Nicira теперь позволит VMware получить законченную концепцию полной виртуализации облачного датацентра. Как нам и обещали, VMware вполне может стать "VMware of Networking". Кстати, теперь при покупке Nicira компания VMware снова двигает своего CEO.

Если тема вам интересна, можно почитать следующие материалы:

Ну и следующая новость - покупка компанией VMware конторы DynamicOps (продукт Virtual Resource Manager, VRM). Эта контора была выделена из небезызвестного банка Credit Suisse и разрабатывает средства для автоматизации гибридных облаков на базе нескольких гипервизоров (что неизбежно будет в крупных организациях с приходом Hyper-V 3.0), а также средства управления сервисными архитектурами вроде Platform-as-a-Service, Database-as-a-Service и Storage-as-a-Service.


Таги: VMware, Nicira, vNetwork, vSphere, vCloud Director, Cloud, Cloud Computing

Наше сравнение функциональных возможностей VMware vSphere 5 и инфраструктуры Microsoft Hyper-V 3.0 (Windows Server 2012 + SC VMM 2012).


В преддверии выхода новой версии платформы Microsoft Hyper-V 3.0 в составе Microsoft Windows Server 2012 мы решили обобщить сведения о новых возможностях этого продукта и более-менее объективно сравнить их с возможностями лидирующей платформы VMware vSphere 5.0. В сравнении учетны различные аспекты функциональности обеих платформ, однако оно ни в коей мере не претендует на свою полноту. Всем известно, что VMware vSphere не просто так номер один на рынке, с другой стороны, Hyper-V стал очень силен. Поэтому что выбирать решать в конечном итоге вам (при этом неплохо проанализировать и стоимость капитальных вложений в лицензии, а также посчитать совокупную стоимость владения обоими решениями).

Собственно, сравнение:

В итоге наш вывод таков - весьма большое количество Enterprise-функциональности присутствует только в издании VMware vSphere Enterprise Plus. В сегменте же среднего и малого бизнеса Microsoft Hyper-V 3.0 вкупе с System Center Virtual Machine Manager 2012 практически ни в чем не уступает остальным изданиям vSphere (а кое-где и превосходит). Поэтому, если вся заявленная функциональность Hyper-V 3.0 работает - то компаниям среднего и малого бизнеса однозначно нужно выбирать эту платформу, потому что это дешевле.


Таги: Microsoft, VMware, Сравнение, vSphere, Hyper-V, vCenter, SC VMM, Update

Список дефолтных паролей для различных продуктов VMware.


Kenny сделал хорошую запись о списке дефолтных аккаунтов для различных продуктов VMware, а мы сведем это в таблицу для вашего удобства, добавив парочку отсутствующих продуктов:

Название продукта Веб-адрес или консоль для доступа Логин (username) Пароль (password)
VMware vSphere Data Recovery http://<имя или IP>:5480 root vmw@re
VMware vSphere Storage Appliance VSA Manager svaadmin svapass
VMware View Administrator http://<имя или IP>/admin Администратор Windows Администратор Windows
VMware Site Recovery Manager Консоль SRM Администратор vCenter Администратор vCenter
VMware vCloud Director http://<имя или IP>/cloud administrator Указывается при установке
VMware vCloud Director Appliance Direct Console root Default0
vCloud Director ApplianceOracleXEDatabase БД vcloud VCloud
VMware vSphere Management Assistant Direct Console vi-admin Задается после логина
VMware vCloud Connector Server http://<имя или IP>:5480 admin vmware
VMware vCloud Connector Node http://<имя или IP>:5480 admin vmware
VMware vCenter Chargeback http://<имя или IP>:8080/cbmui root vmware
VMware Horizon Application Manager http://<имя или IP>, http://<имя или IP>/SAAS/login/0 - -
VMware Horizon Connector http://<имя или IP>:8443 - -
VMware vCenter Appliance (настройка) http://<имя или IP>:5480 root vmware
VMware vCenter Application Discovery Manager http://<имя или IP> root 123456
VMware vCenter Infrastructure Navigator http://<имя или IP>:5480 root Указывается при развертывании OVA-модуля
VMware vCenter Web Client (настройка) http://<имя или IP>:9443/admin-app root vmware
VMware vCenter vSphere Web Client Access http://<имя или IP>:9443/vsphere-client root vmware
VMware vCenter Orchestrator Appliance (Configuration) http://<имя или IP> vmware vmware
VMware vCenter Orchestrator Appliance (Client) http://<имя или IP> vcoadmin vcoadmin
VMware vCenter Orchestrator Appliance (Web Operator) http://<имя или IP> vcoadmin vcoadmin
VMware vCenter Orchestrator for Windows http://<имя или IP>:8283 или http://<имя или IP>:8282, Web Views - http://<имя или IP>:8280 vmware vmware
VMware vCenter Operations Manager http://<имя или IP> admin admin
VMware vCenter Operations Admin http://<имя или IP>/admin admin admin
VMware vCenter Operations Custom UI http://<имя или IP>/vcops-custom admin admin
VMware vShield Manager Console to VM - http://<имя или IP> admin default
Zimbra Appliance Administration Console http://<имя или IP>:5480 root vmware
VMware vFabric Application Director http://<имя или IP>:8443/darwin/flex/darwin.html Задается при развертывании Задается при развертывании
VMware vFabric AppInsight http://<имя или IP> admin Задается при развертывании
VMware vFabric Data Director http://<имя или IP>/datadirector Задается при развертывании Задается при развертывании
VMware vFabric Suite License http://<имя или IP>:8443/vfabric-license-server/report/create - -

Вроде всё. Если знаете еще что-то, напишите, пожалуйста, в каменты.


Таги: VMware, vSphere, vCenter, ESXi, vCloud Director, Horizon, Chargeback, vFabric, Zimbra

Брошюра vGate R2 и ПАК «Соболь» - надежная защита виртуальной инфраструктуры на платформе VMware vSphere 5.


Мы уже писали про средства доверенной загрузки, которые нужно использовать в виртуальной инфраструктуре VMware vSphere 5, чтобы нейтрализовать угрозы, свзанные с доверенной загрузкой, и соответствовать требованиям руководящих документов ФСТЭК. Напомним, что когда дело касается виртуальных машин, организовать их доверенную загрузку можно с помощью сертифицированного средства защиты vGate R2 от компании Код Безопасности, в котором есть множество наборов политик, которые можно применять к различным объектам виртуальной инфраструктуры:

Однако надо помнить, что нужно защищать также и сами хост-серверы ESXi, находящиеся в датацентре компании. Для эффективной защиты сервера виртуализации, помимо vGate R2, необходим электронный замок - ПАК «Соболь» версии 3.0 для реализации следующих защитных механизмов:

  • идентификация и аутентификация пользователей на входе в систему (непосредственно при запуске сервера);
  • ведение журнала безопасности;
  • сигнализация попыток нарушения защиты;
  • запрет загрузки с внешних носителей;
  • контроль конфигурации (PCI-устройств, ACPI, SMBIOS и оперативной памяти).

На эту тему компания Код Безопасности выпустила специальную брошюру "vGate R2 и ПАК «Соболь» - надежная защита виртуальной инфраструктуры на платформе VMware vSphere 5", где можно почитать об основных проблемах контроля целостности хост-серверов VMware ESXi и виртуальных машин и их доверенной загрузки:

Применение обоих средств защиты информации – ПАК «Соболь» версии 3.0 и vGate R2 – в комплексе позволяет защитить сервер с установленной платформой для виртуализации VMware vSphere 5 и нейтрализовать угрозы непосредственного доступа (угрозы, реализуемые до загрузки ОС, и угрозы, реализуемые после загрузки ОС).

Наличие у продуктов сертификатов ФСТЭК России позволяет использовать vGate R2 и ПАК «Соболь» версии 3.0 для защиты информации, составляющей коммерческую или государственную тайну в автоматизированных системах с классом защищенности до 1Б включительно.

Напомним, что версия vGate R2 с поддержкой vSphere 5 уже поступила в продажу, а бесплатную пробную версию продукта можно скачать тут.


Таги: vGate, Security Code, Security, VMware, vSphere, ESXi

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 | 105 | 106 | 107 | 108 | 109 | 110 | 111 | 112 | 113 | 114 | 115 | 116 | 117 | 118 | 119 | 120 | 121 | 122 | 123 | 124 | 125 | 126 | 127 | 128 | 129 | 130 | 131 | 132 | 133 | 134 | 135 | 136 | 137 | 138 | 139 | 140 | 141    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
Kubernetes VMware VMachines Enterprise Offtopic Broadcom Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF vSAN VKS Private AI VMmark Operations Certification Memory NVMe AI VMConAWS vDefend VCDX Explore Tanzu Workstation Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint Upgrade VCAP Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge